顔は笑っていても,声は笑っていなかった。顔は泣いてたとしても,声は泣いていなかった。だからそう,キミを好きだと云わせてくれ。
KDDI社などは,携帯電話利用者の発する声から感情を理解し,適切な返事を返す「ezバーチャルトーク」を開始する。当初はクイズや占いなどのコンテンツに用いる。これは利用者の声をデータベース化し,「喜・怒・哀」の感情を識別し,返答を変えて,会話連鎖を行う。
とっさに笑顔を作ることはできるが,楽しいときの声や悲しいときの声をつくることは難しい。顔ではごまかせても,声は嘘をついていないことがある。仕方なく嘘で気持ちを伝えようとしても,どぉも嘘っぽく聞こえてしまう,こともある。人は顔の表情を作ることには慣れているけど,声の表情を作ることには慣れていない。
OSがマウスとキーボードと云うインターフェイスから次の階段を上って,音声によってすべてを操作することになる時が来る。ナレッジナビゲーター的に(過去記事),OSは1人の人格となり,話しかけ,返答する,というやりとりをすることが日常となる。現在の音声認識はわざと感情を出さず,平坦な声を出さなければ認識率が落ちてしまうので,実はまだまだまだまだまだ,の状態だ。そこに,互いの感情を認識しながらのやり取りがあれば,相手(パソコンの中のエージェント,そして自分)の本当を確かめあうことになるし,理解しあうことができる。ezバーチャルトークのコンテンツはさして面白いものとは思わないけど,未来のパソコンに必要不可欠な技術と,なるんだろうな,これは。
|